反向传播(BP)神经网络

 

  • BP神经网络相关概念

    • 什么是神经网络? 
      神经网络是由很多神经元组成的,用个比较粗浅的解释,可能不太全面科学,但对初学者很容易理解: 
      1. 我们把输入数据,输进去神经网络
      2. 这些数据的每一个都会被乘个数,即权值w,然后这些数据与阀值b相加后求和得到u
      3. 上面只是线性变化,为了达到能处理非线性的目的,u做了个变换,变换的规则和传输函数有关 
        可能还有人问,那么那个阀值是什么呢?简单理解就是让这些数据做了个平移,这就是神经元工作的过程。处理后的结果又作为输入,可输给别的神经元,很多这样的神经元,就组成了网络。
    • BP网络的特点 
      1. 网络实质上实现了一个从输入到输出的映射功能,而数学理论已证明它具有实现任何复杂非线性映射的功能。这使得它特别适合于求解内部机制复杂的问题。我们无需建立模型,或了解其内部过程,只需输入,获得输出。只要BPNN结构优秀,一般20个输入函数以下的问题都能在50000次的学习以内收敛到最低误差附近。而且理论上,一个三层的神经网络,能够以任意精度逼近给定的函数,这是非常诱人的期望;
      2. 网络能通过学习带正确答案的实例集自动提取“合理的”求解规则,即具有自学习能力;
      3. 网络具有一定的推广、概括能力。
    • BP主要应用 
      回归预测(可以进行拟合,数据处理分析,事物预测,控制等)、 分类识别(进行类型划分,模式识别等)。但无论那种网络,什么方法,解决问题的精确度都无法打到100%的,但并不影响其使用,因为现实中很多复杂的问题,精确的解释是毫无意义的,有意义的解析必定会损失精度。
    • BP算法的学习速度很慢,其原因主要有: 
      1. 由于BP算法本质上为梯度下降法,而它所要优化的目标函数又非常复杂,因此,必然会出现“锯齿形现象”,这使得BP算法低效;
      2. 存在麻痹现象,由于优化的目标函数很复杂,它必然会在神经元输出接近0或1的情况下,出现一些平坦区,在这些区域内,权值误差改变很小,使训练过程几乎停顿;
      3. 为了使网络执行BP算法,不能用传统的一维搜索法求每次迭代的步长,而必须把步长的更新规则预先赋予网络,这种方法将引起算法低效。
    • 网络训练失败的可能性较大,其原因有: 
      1. 从数学角度看,BP算法为一种局部搜索的优化方法,但它要解决的问题为求解复杂非线性函数的全局极值,因此,算法很有可能陷入局部极值,使训练失败;
      2. 网络的逼近、推广能力同学习样本的典型性密切相关,而从问题中选取典型样本实例组成训练集是一个很困难的问题。
    • 网络结构的选择: 
      尚无一种统一而完整的理论指导,一般只能由经验选定。为此,有人称神经网络的结构选择为一种艺术。而网络的结构直接影响网络的逼近能力及推广性质。因此,应用中如何选择合适的网络结构是一个重要的问题。
    • 新加入的样本要影响已学习成功的网络,而且刻画每个输入样本的特征的数目也必须相同。
    • 采用s型激活函数,由于输出层各神经元的理想输出值只能接近于1或0,而不能达到1或0,因此设置各训练样本的期望输出分量Tkp时,不能设置为1或0,设置0.9或0.1较为适宜。

    • 什么是网络的泛化能力? 
      一个神经网路是否优良,与传统最小二乘之类的拟合评价不同(主要依据残差,拟合优度等),不是体现在其对已有的数据拟合能力上,而是对后来的预测能力,既泛化能力。

      网络的预测能力(也称泛化能力、推广能力)与训练能力(也称逼近能力、学习能力)的矛盾。一般情况下,训练能力差时,预测能力也差,并且一定程度上,随训练能力地提高,预测能力也提高。但这种趋势有一个极限,当达到此极限时,随训练能力的提高,预测能力反而下降,即出现所谓“过拟合”现象。此时,网络学习了过多的样本细节,而不能反映样本内含的规律。

    • 过拟合是什么,怎么处理? 
      神经网络计算不能一味地追求训练误差最小,这样很容易出现“过拟合”现象,只要能够实时检测误差率的变化就可以确定最佳的训练次数,比如15000次左右的学习次数,如果你不观察,设成500000次学习,不仅需要很长时间来跑,而且最后结果肯定令人大失所望。

      避免过拟合的一种方法是:在数据输入中,给训练的数据分类,分为正常训练用、变量数据、测试数据,在后面节将讲到如何进行这种分类。 
      其中变量数据,在网络训练中,起到的作用就是防止过拟合状态。

    • 学习速率有什么作用? 
      学习速率这个参数可以控制能量函数的步幅,并且如果设为自动调整的话,可以在误差率经过快速下降后,将学习速率变慢,从而增加BPNN的稳定性                                                                                                                                                                                                                                                        转载自http://blog.csdn.net/golden1314521/article/details/45053809   参考:http://blog.csdn.net/lzhalan2016/article/details/52332657

posted @ 2017-08-03 19:52  黎先生  阅读(1181)  评论(0编辑  收藏  举报